Lịch sử CPU

EDVAC, một trong những máy tính có chương trình được lưu trữ đầu tiên

Máy tính cổ như ENIAC muốn thực hiện các nhiệm vụ khác nhau thì phải nối lại hoàn toàn các mạch điện, điều này khiến các máy này được gọi là "máy tính có chương trình cố định".[5] Thuật ngữ "CPU" thường được định nghĩa là một thiết bị để chạy phần mềm (chương trình máy tính), các thiết bị đầu tiên mà có thể được gọi là CPU đi kèm với sự ra đời của máy tính có khả năng lưu trữ chương trình.

Ý tưởng về một máy tính lưu trữ chương trình đã hiện diện trong thiết kế ENIAC của J. Presper Eckert và John William Mauchly, nhưng đã được bỏ qua ngay từ đầu để nó có thể được hoàn thành sớm hơn.[6] Ngày 30 tháng 6 năm 1945, trước khi ENIAC được tạo ra, nhà toán học John von Neumann công bố bài báo mang tên First Draft of a Report on the EDVAC. Bài báo là phác thảo của một máy tính chạy chương trình được lưu trữ mà cuối cùng sẽ được hoàn thành vào tháng 8 năm 1949.[7] EDVAC được thiết kế để thực hiện một số lượng nhất định các lệnh khác nhau. Đáng chú ý là các chương trình viết cho EDVAC đã được lưu trữ trong bộ nhớ máy tính có tốc độ cao thay cho hệ thống dây điện vật lý của máy tính.[8] Điều này đã vượt qua một hạn chế nghiêm trọng của ENIAC, đó là thời gian đáng kể và nỗ lực cần thiết để cấu hình lại máy tính để thực hiện một nhiệm vụ mới. Với thiết kế von Neumann, các chương trình mà EDVAC chạy có thể được thay đổi chỉ đơn giản bằng cách thay đổi các nội dung của bộ nhớ. Tuy nhiên, EDVAC không phải là máy tính lưu trữ chương trình đầu tiên; Manchester Small-Scale Experimental Machine,một nguyên mẫu máy tính có lưu trữ một chương trình nhỏ, chạy chương trình đầu tiên của mình vào ngày 21 tháng 6 năm 1948[9] và Manchester Mark 1 chạy chương trình đầu tiên của mình trong đêm 16-17 tháng 6 năm 1949.[10]

Các CPU đời đầu sử dụng các thiết kế tùy chỉnh như là một phần của một máy tính lớn và đôi khi rất khác biệt.[11] Tuy nhiên, phương pháp này thiết kế CPU tùy chỉnh cho một ứng dụng cụ thể đã nhường chỗ cho sự phát triển của bộ vi xử lý đa mục đích sản xuất với số lượng lớn. Tiêu chuẩn này bắt đầu trong thời đại máy tính mainframe sử dụng transistor, máy tính mini và đã nhanh chóng tăng tốc với sự phổ biến của các vi mạch (IC). Các vi mạch đã cho phép CPU ngày càng phức tạp được thiết kế và sản xuất nhỏ đến cỡ nanômét.[12] Hai quy trình thu nhỏ hóa và tiêu chuẩn hóa của CPU đã làm tăng nhanh sự có mặt của các thiết bị kỹ thuật số trong cuộc sống hiện đại vượt xa các ứng dụng hạn chế của máy tính chuyên dụng. Bộ vi xử lý hiện đại xuất hiện trong các thiết bị điện tử khác nhau, từ xe ô tô[13] đến điện thoại di động,[14] và thậm chí cả trong đồ chơi.[15]

Trong khi von Neumann thường được ghi công với việc thiết kế của máy tính có khả năng lưu trữ chương trình vì thiết kế EDVAC của ông, và thiết kế này được gọi là kiến trúc von Neumann, những người khác trước ông như Konrad Zuse cũng đã đề xuất và thực hiện những ý tưởng tương tự.[16] Cái gọi là kiến trúc Harvard của Harvard Mark I, được hoàn thiện trước EDVAC,[17][18] cũng sử dụng một thiết kế được lưu trữ chương trình sử dụng băng giấy đục lỗ thay vì bộ nhớ điện tử.[19] Sự khác biệt cơ bản giữa các kiến trúc von Neumann và Harvard là máy Harvard tách rời việc lưu trữ và xử lý các lệnh CPU và dữ liệu, trong khi máy của von Neumann sử dụng bộ nhớ không gian chung cho cả hai.[20] Hầu hết các CPU hiện đại chủ yếu sử dụng ý tưởng von Neumann trong thiết kế, nhưng CPU với kiến trúc Harvard được xem là tốt, đặc biệt là trong các ứng dụng nhúng; Ví dụ, các vi điều khiển Atmel AVR là các bộ xử lý kiến trúc Harvard.[21]

Rơleđèn điện tử chân không đã được sử dụng phổ biến để làm các thành phần chuyển mạch;[22][23] một máy tính hữu ích đòi hỏi hàng ngàn hoặc hàng chục ngàn các thiết bị chuyển mạch như vậy. Tốc độ tổng thể của một hệ thống phụ thuộc vào tốc độ của thiết bị chuyển mạch. Máy tính dùng đèn chân không như EDVAC có thời gian sử dụng trung bình tám giờ trước khi nó bị hỏng, trong khi máy tính dùng rơle như Harvard Mark I (chậm hơn, nhưng được tạo ra sớm hơn) rất ít khi hỏng hóc.[1] Cuối cùng, CPU dùng đèn chân không đã trở thành thống trị bởi vì những lợi thế đáng kể về tốc độ của nó đã thắng những vấn đề về độ tin cậy. Hầu hết các CPU đồng bộ ban đầu chạy ở tốc độ thấp hơn so với các thiết kế vi điện tử hiện đại. tần số tín hiệu đồng hồ khác nhau, từ 100 kHz đến 4 MHz rất phổ biến vào thời kỳ này, giới hạn phần lớn bởi tốc độ của các thiết bị chuyển mạch của CPU.[24]

Các CPU dùng transistors

Sự phức tạp thiết kế của CPU tăng lên khi hàng loạt công nghệ khác nhau tạo thuận lợi cho việc xây dựng các thiết bị điện tử nhỏ hơn và đáng tin cậy hơn. Những cải tiến đầu tiên như vậy đi kèm với sự ra đời của transistor. CPU bán dẫn trong suốt những năm 1950 và 1960 không còn phải được xây dựng bằng các phần tử chuyển mạch cồng kềnh, không đáng tin cậy và mong manh như đèn điện tử chân khôngrơle.[25] Với cải tiến này nhiều CPU phức tạp và đáng tin cậy được xây dựng trên một hoặc một số mạch in chứa các thành phần riêng biệt.

Năm 1964, IBM giới thiệu kiến trúc máy tính System/360, được sử dụng trong một loạt các máy tính có khả năng chạy các chương trình tương tự với tốc độ và hiệu suất khác nhau.[26] Điều này có ý nghĩa tại thời điểm đó khi hầu hết các máy tính điện tử là không tương thích với nhau, ngay cả những máy tính có chung nhà sản xuất. Để tạo điều kiện cho cải tiến này, IBM sử dụng các khái niệm về một vi chương trình (thường được gọi là "vi mã"), vi mã này vẫn được sử dụng rộng rãi trong các CPU hiện đại.[27] Kiến trúc System/360 trở nên phổ biến đến mức nó thống trị thị trường máy tính mainframe trong hàng thập kỷ và để lại một di sản vẫn được tiếp tục với các máy tính hiện đại zSeries của IBM.[28][29] Năm 1965, Digital Equipment Corporation (DEC) giới thiệu một máy tính có ảnh hưởng nhằm vào thị trường khoa học và nghiên cứu, PDP-8.[30]

Board with SPARC64 VIIIfx

Máy tính mạch bán dẫn có một số lợi thế khác biệt so với những máy tính trước đó. Bên cạnh độ tin cậy tăng lên và tiêu thụ điện năng giảm đi, bóng bán dẫn cũng cho phép CPU hoạt động với tốc độ cao hơn nhiều vì thời gian chuyển đổi ngắn hơn của một bóng bán dẫn so với một đèn điện tử hoặc rơle.[31] Nhờ độ tin cậy tăng lên cũng như việc tăng đáng kể tốc độ của các thành phần chuyển mạch (với các bóng bán dẫn được dùng gần như hoàn toàn trong thời gian này), tốc độ xung nhịp CPU tăng lên tới hàng chục megahertz trong giai đoạn này.[32] Ngoài ra, trong khi CPU dùng bóng bán dẫn rời rạc và vi mạch CPU được sử dụng rộng rãi, các thiết kế mới có hiệu suất cao như các xử lý vectơ SIMD (Single Instruction Multiple Data) bắt đầu xuất hiện.[33] Những thiết kế thử nghiệm đầu tiên này sau đó đã dẫn đến thời đại của các siêu máy tính chuyên ngành như các máy được Cray Inc và Fujitsu Ltd sản xuất.

Các CPU tích hợp quy mô nhỏ

CPU, bộ nhớ trong, giao diện bus ngoài của một máy tính DEC PDP-8/I, được tích hợp ở quy mô trung bình.

Trong thời gian này, một phương pháp sản xuất nhiều transistor kết nối với nhau trong một không gian nhỏ gọn đã được phát triển. Các mạch tích hợp (IC) cho phép một số lượng lớn các bóng bán dẫn được sản xuất trên một chip bán dẫn. Lúc đầu chỉ mạch kỹ thuật số rất cơ bản không chuyên đầu tiên như cổng NOR được thu nhỏ vào vi mạch. CPU dựa trên những khối vi mạch thường được gọi là thiết bị "tích hợp quy mô nhỏ"(SSI). Vi mạch SSI, chẳng hạn như những vi mạch được dùng trong các máy tính hướng dẫn tàu Apollo, thường chứa lên đến một vài nghìn transistor. Để xây dựng toàn bộ một CPU trên vi mạch SSI cần hàng ngàn chip, nhưng vẫn tiêu thụ ít không gian và điện năng hơn nhiều so với thiết kế bằng bóng bán dẫn trước đó.

System/370 của IBM, phiên bản kế tục System/360, sử dụng vi mạch SSI thay vì dùng module bán dẫn rời rạc của Solid Logic Technology. Máy tính PDP-8/I and KI10 PDP-10 của DEC cũng chuyển từ các bóng bán dẫn riêng lẻ được PDP-8 và PDP-10 sử dụng và chuyển qua dùng vi mạch SSI, và dòng máy PDP-11 cực kỳ phổ biến của họ ban đầu được xây dựng với vi mạch SSI nhưng cuối cùng đã được thay thế bằng các vi mạch LSI khi nó ra đời.

Các CPU tích hợp quy mô lớn

Lee Boysel xuất bản các bài báo có ảnh hưởng, trong đó có một "tuyên ngôn" năm 1967, trong đó mô tả làm thế nào để xây dựng máy tính tương đương với một máy tính mainframe 32-bit từ một số lượng tương đối nhỏ các mạch tích hợp quy mô lớn (LSI).[34][35] Vào thời điểm đó, cách duy nhất để xây dựng chip LSI, một con chip với một trăm hoặc nhiều cổng, bằng cách xây dựng chúng sử dụng một quá trình MOS (chẳng hạn PMOS logic, NMOS logic, hoặc CMOS logic). Tuy nhiên, một số công ty tiếp tục xây dựng các bộ xử lý dùng chip lưỡng cực vì các bán dẫn lưỡng cực nhanh hơn nhiều so với các chip MOS; chẳng hạn, Datapoint tạo các bộ vi xử lý bằng chip TTL cho đến đầu những năm 1980.[35]

Các nhà sản xuất máy tính tốc độ cao muốn chúng chạy nhanh chóng, vì vậy trong những năm 1970 họ xây dựng các CPU từ các vi mạch tích hợp quy mô nhỏ (SSI) và quy mô trung bình (MSI) bao gồm các cổng TTL của vi mạch họ 7400. Vào thời điểm đó, vi mạch MOS quá chậm đến nỗi chúng chỉ được coi là hữu ích trong một vài ứng dụng thích hợp với yêu cầu công suất thấp.[36][37]

Khi công nghệ vi điện tử phát triển mạnh, nó gia tăng số lượng bóng bán dẫn được đặt trên một IC, giảm số lượng IC riêng cần thiết để tạo ra một CPU hoàn chỉnh. Các vi mạch MSI và LSI tăng lượng transistor lên đến hàng trăm, và sau đó hàng ngàn. Đến năm 1968, số lượng IC cần thiết để xây dựng một CPU hoàn chỉnh đã được giảm xuống còn 24 IC của tám loại khác nhau, với mỗi IC chứa khoảng 1000 MOSFET.[38] Tương phản hoàn toàn với các vi mạch SSI và MSI của nó, vi mạch LSI đầu tiên của PDP-11 chứa một CPU bao gồm chỉ có bốn mạch tích hợp LSI.[39]

Các bộ vi xử lý

Bài chi tiết: Vi xử lý
Đế của một bộ vi xử lí Intel 80486DX2 (Kích thước thật: 12x6.75 mm)
Bộ vi xử lí Intel Core i5 ở trên bo mạch chủ của máy tính xách tay VAIO E (ở bên phải, dưới ống tản nhiệt)

Trong những năm 1970, những phát minh cơ bản của Federico Faggin (IC MOS cổng silicon với cổng tự liên kết cùng với các phương pháp thiết kế logic ngẫu nhiên mới của ông) đã thay đổi việc thiết kế và sản xuất CPU mãi mãi. Kể từ sự ra đời của bộ vi xử lý thương mại đầu tiên (Intel 4004) vào năm 1970, và bộ vi xử lý lần đầu tiên được sử dụng rộng rãi (Intel 8080) năm 1974, mô hình này của CPU đã gần như hoàn toàn vượt qua tất cả các bộ phận xử lý trung tâm khác. Các nhà sản xuất máy tính lớn và máy tính mini thời kỳ này tung ra các chương trình phát triển vi mạch độc quyền để nâng cấp kiến trúc máy tính cũ của họ, và cuối cùng tạo ra bộ vi xử lý tương thích với tập lệnh cũ của các phần cứng và phần mềm cũ. Kết hợp với sự ra đời và cuối cùng thành công khắp nơi của máy tính cá nhân, thuật ngữ CPU bây giờ được áp dụng gần như độc quyền[lower-alpha 1]cho các bộ vi xử lý. Một số CPU (gọi là lõi) có thể được kết hợp trong một chip xử lý duy nhất.[40]

Các thế hệ trước của CPU cũng được sản xuất như các linh kiện điện tử và vô số vi mạch (IC) trên một hay nhiều mạch in.[41] Bộ vi xử lý là các CPU được sản xuất trên một số lượng rất nhỏ các IC; thường chỉ là một.[42] Tổng thể kích thước CPU nhỏ hơn, là một kết quả của việc sản xuất trên cùng một khuôn, khiến thời gian chuyển đổi nhanh hơn vì các yếu tố vật lý như giảm điện dung ký sinh tại cổng.[43][44] Điều này đã cho phép các bộ vi xử lý đồng bộ có tốc độ xung nhịp từ hàng chục megahertz đến vài gigahertz. Ngoài ra, vì khả năng để xây dựng transistor cực nhỏ trên một vi mạch đã tăng lên, sự phức tạp và số lượng bóng bán dẫn trong một CPU duy nhất đã tăng lên nhiều lần. Xu hướng được kiểm chứng rộng rãi này được đặt tên là Định luật Moore, mà đã được chứng minh qua thực tế là một yếu tố dự báo khá chính xác về sự phát triển của CPU (và các IC phức tạp khác).[45]

Trong khi mức độ phức tạp, quy mô, xây dựng, và dạng tổng quát của CPU đã thay đổi rất nhiều kể từ năm 1950,[46] đáng chú ý là các thiết kế cơ bản và chức năng của nó đã không thay đổi chút nào. Hầu như tất cả các CPU phổ biến hiện nay có thể được mô tả rất chính xác như các máy lưu trữ chương trình theo kiểu von Neumann.[lower-alpha 2] Khi định luật Moore nói trên vẫn tiếp tục đúng,[45] mối quan tâm phát sinh về các giới hạn của công nghệ bóng bán dẫn mạch tích hợp. Thu nhỏ tối đa các cửa điện tử đang gây ra những ảnh hưởng của hiện tượng như electromigration và rò rỉ dưới ngưỡng đã nhiều hơn đáng kể. Những mối quan tâm mới là một trong nhiều yếu tố khiến các nhà nghiên cứu tập trung tìm hiểu các phương pháp mới của máy tính như máy tính lượng tử, cũng như để mở rộng việc sử dụng tính toán song song và các phương pháp khác nhằm mở rộng tính hữu ích của các mô hình von Neumann cổ điển.

Tài liệu tham khảo

WikiPedia: CPU ftp://download.intel.com/museum/Moores_Law/Video-T... http://www.androidauthority.com/mobile-processor-g... http://infocenter.arm.com/help/index.jsp?topic=/co... http://arstechnica.com/information-technology/2014... http://www.atmel.com/technologies/cpu_core/avr.asp... http://www.embedded.com/electronics-blogs/signific... http://www-03.ibm.com/ibm/history/exhibits/mainfra... http://www.pcgamer.com/a-brief-history-of-cpus-31-... http://www.pcmech.com/article/a-cpu-history/ http://searchdatacenter.techtarget.com/sDefinition...